n 값으로 채워진 모양의 텐서 (batch_size, height, width)를 모양의 텐서 (batch_size, n, height, width)로 변환하는 가장 쉬운 방법은 무엇입니까? 아래에 솔루션을 만들었지 만이 작업을 수행하는 더 쉽고 빠른 방법이있는 것 같습니다. def batch_tensor_to_onehot (tnsr, 클래스) : tnsr = tnsr.unsqueeze (1) res = [] 범위 (클래스)의 cls : res.append ((tnsr == cls) .long ()) return torch.cat (res, dim = 1)
2021-02-20 08:19:24
torch.nn.functional.one_hot을 사용할 수 있습니다. 귀하의 경우 : a = torch.nn.functional.one_hot (tnsr, num_classes = classes) out = a.permute (0, 3, 1, 2) | .permute를 피하지만 @Alpha가 제안한 간단한 방법보다 이해하기 더 어려운 Tensor.scatter_를 사용할 수도 있습니다. def batch_tensor_to_onehot (tnsr, 클래스) : 결과 = torch.zeros (tnsr.shape [0], 클래스, * tnsr.shape [1 :], dtype = torch.long, device = tnsr.device) result.scatter_ (1, tnsr.unsqueeze (1), 1) 반환 결과 벤치마킹 결과 나는 호기심이 생겨 세 가지 접근 방식을 벤치마킹하기로 결정했습니다. 배치 크기, 너비 또는 높이와 관련하여 제안 된 방법간에 상당한 상대적 차이가없는 것으로 나타났습니다. 주로 클래스 수가 구별되는 요소였습니다. 물론 모든 벤치 마크 마일리지와 마찬가지로 다를 수 있습니다. 벤치 마크는 무작위 인덱스를 사용하고 배치 크기, 높이, 너비 = 100을 사용하여 수집되었습니다. 각 실험은 평균을보고하면서 20 회 반복되었습니다. num_classes = 100 실험은 준비를 위해 프로파일 링하기 전에 한 번 실행됩니다. CPU 결과에 따르면 원래 방법은 약 30 개 미만의 num_classes에 가장 적합 할 수 있지만 GPU의 경우 scatter_ 접근 방식이 가장 빠른 것 같습니다. Ubuntu 18.04, NVIDIA 2060 Super, i7-9700K에서 수행 된 테스트 벤치마킹에 사용되는 코드는 다음과 같습니다. 수입 토치 tqdm에서 가져 오기 tqdm 수입 시간 matplotlib.pyplot을 plt로 가져 오기 def batch_tensor_to_onehot_slavka (tnsr, classes) : tnsr = tnsr.unsqueeze (1) res = [] 범위 (클래스)의 cls : res.append ((tnsr == cls) .long ()) return torch.cat (res, dim = 1) def batch_tensor_to_onehot_alpha (tnsr, 클래스) : 결과 = torch.nn.functional.one_hot (tnsr, num_classes = classes) return result.permute (0, 3, 1, 2) def batch_tensor_to_onehot_jodag (tnsr, classes) : 결과 = torch.zeros (tnsr.shape [0], 클래스, * tnsr.shape [1 :], dtype = torch.long, device = tnsr.device) result.scatter_ (1, tnsr.unsqueeze (1), 1) 반환 결과 def main () : num_classes = [2, 10, 25, 50, 100] 높이 = 100 너비 = 100 bs = [100] * 20 d의 [ 'cpu', 'cuda'] : times_slavka = [] times_alpha = [] times_jodag = [] 워밍업 = True tqdm ([num_classes [-1]] + num_classes, ncols = 0)에서 c의 경우 : tslavka = 0 talpha = 0 tjodag = 0 b in bs : tnsr = torch.randint (c, (b, 높이, 너비)). to (장치 = d) t0 = time.time () y = batch_tensor_to_onehot_slavka (tnsr, c) torch.cuda.synchronize () tslavka + = time.time ()-t0 워밍업이 아닌 경우 : times_slavka.append (tslavka / len (bs)) b in bs : tnsr = torch.randint (c, (b, 높이, 너비)). to (장치 = d) t0 = time.time () y = batch_tensor_to_onehot_alpha (tnsr, c) torch.cuda.synchronize () talpha + = time.time ()-t0 워밍업이 아닌 경우 : times_alpha.append (talpha / len (bs)) b in bs : tnsr = torch.randint (c, (b, 높이, 너비)). to (장치 = d) t0 = time.time () y = batch_tensor_to_onehot_jodag (tnsr, c) torch.cuda.synchronize () tjodag + = time.time ()-t0 워밍업이 아닌 경우 : times_jodag.append (tjodag / len (bs)) 워밍업 = False 무화과 = plt.figure () ax = fig.subplots () ax.plot (num_classes, times_slavka, label = 'Slavka-cat') ax.plot (num_classes, times_alpha, label = 'Alpha-one_hot') ax.plot (num_classes, times_jodag, label = 'jodag-scatter_') ax.set_xlabel ( 'num_classes') ax.set_ylabel ( '시간 (s)') ax.set_title (f '{d} 벤치 마크') ax.legend () plt.savefig (f '{d} .png') plt.show () __name__ == "__main__"인 경우 : 본관() | 너의 답 StackExchange.ifUsing ( "editor", function () { StackExchange.using ( "externalEditor", function () { StackExchange.using ( "snippets", function () { StackExchange.snippets.init (); }); }); }, "코드 스 니펫"); StackExchange.ready (function () { var channelOptions = { 태그 : "".split ( ""), id : "1" }; initTagRenderer ( "". split ( ""), "".split ( ""), channelOptions); StackExchange.using ( "externalEditor", function () { // 스 니펫이 활성화 된 경우 스 니펫 후에 편집기를 실행해야합니다. if (StackExchange.settings.snippets.snippetsEnabled) { StackExchange.using ( "snippets", function () { createEditor (); }); } else { createEditor (); } }); function createEditor () { StackExchange.prepareEditor ({ useStacksEditor : false, heartbeatType : '답변', autoActivateHeartbeat : false, convertImagesToLinks : true, noModals : true, showLowRepImageUploadWarning : true, scoreToPostImages : 10, bindNavPrevention : true, 접미사 : "", imageUploader : { brandingHtml : "Powered by \ u003ca href = \"https : //imgur.com/ \ "\ u003e \ u003csvg class = \"svg-icon \ "width = \"50 \ "height = \"18 \ "viewBox = \ "0 0 50 18 \"fill = \ "none \"xmlns = \ "http : //www.w3.org/2000/svg \"\ u003e \ u003cpath d = \ "M46.1709 9.17788C46.1709 8.26454 46.2665 7.94324 47.1084 7.58816C47.4091 7.46349 47.7169 7.36433 48.0099 7.26993C48.9099 6.97997 49.672 6.73443 49.672 5.93063C49.672 5.22043 48.9832 4.61182 48.1414 4.6931182C47.4335 4.61182 46.7256 4.52515.72644.69359545.2148 4.5251. 43.1481 6.59048V11.9512C43.1481 13.2535 43.6264 13.8962 44.6595 13.8962C45.6924 13.8962 46.1709 13.253546.1709 11.9512V9.17788Z \ "/ \ u003e \ u003cpath d = \"M32.492 10.1419C32.492 12.6954 34.1182 14.0484 37.0451 14.0484C39.9723 14.0484 41.5985 12.6954 41.5985 10.1419V6.59049C41.5985 5.28821 41.1394 4.66232 40.1061 4.66232C 38.5948 5.28821 38.5948 6.59049V9.60062C38.5948 10.8521 38.2696 11.5455 37.0451 11.5455C35.8209 11.5455 35.4954 10.8521 35.4954 9.60062V6.59049C35.4954 5.28821 35.0173 4.66232 34.0034 4.66232C32.9703 4.66232 32.492 5.28821 32.492003 6.59049 fill-rule = \ "evenodd \"clip-rule = \ "evenodd \"d = \ "M25.6622 17.6335C27.8049 17.6335 29.3739 16.9402 30.2537 15.6379C30.8468 14.7755 30.9615 13.5579 30.9615 11.9512V6.59049C30.9615 5.28821 30.4833 4.66231 29.4502 4.66231C28.9913 4.66231 28.4555 4.94978 28.1109 5.50789C27.499 4.86533 26.7335 4.56087 25.7005 4.56087C23.1369 4.56087 21.0134 6.57349 21.0134 9.27932C21.0134 11.9852 23.003 13.913 25.3754 12.6913C26.5612109 12.7229 28.4607 1346 12. C28. 1256 12.8854 28.1301 12.9342 28.1301 12.983C28.1301 14.4373 27.2502 15.2321 25.777 15.2321C24.8349 15.2321 24.1352 14.9821 23.5661 14.7787C23.176 14.6393 22.8472 14.5218 22.5437 14.5218.31787 2977217.62429 16.7375 22. C24.1317 7.94324 24.9928 7.09766 26.1024 7.09766C27.2119 7.09766 28.0918 7.94324 28.0918 9.27932C28.0918 10.6321 27.2311 11.5116 26.1024 11.5116C24.9737 11.5116 24.1317 10.6491 24.1317 9.27932Z \ "/ \ u00316.e \ u003cpath d = \ u003cpath 8045 13.2535 17.2637 13.8962 18.2965 13.8962C19.3298 13.8962 19.8079 13.2535 19.8079 11.9512V8.12928C19.8079 5.82936 18.4879 4.62866 16.4027 4.62866C15.1594 4.62866 14.279 4.98375 13.3609 5.8801386650 4.8743 55154 11.8666581 4.6286643 58314 4.9328 7.10506 4.66232 6.51203 4.66232C5.47873 4.66232 5.00066 5.28821 5.00066 6.59049V11.9512C5.00066 13.2535 5.47873 13.8962 6.51203 13.8962C7.54479 13.8962 8.0232 13 .2535 8.0232 11.9512V8.90741C8.0232 7.58817 8.44431 6.91179 9.53458 6.91179C10.5104 6.91179 10.893 7.58817 10.893 8.94108V11.9512C10.893 13.2535 11.3711 13.8962 12.4044 13.8962C13.4375 13.8962 13.9157 153.2694.33657911.9512. C16.4027 6.91179 16.8045 7.58817 16.8045 8.94108V11.9512Z \ "/ \ u003e \ u003cpath d = \"M3.31675 6.59049C3.31675 5.28821 2.83866 4.66232 1.82471 4.66232C0.791758 4.66232 0.313354 5.28821 0.391758 13.89049V11.9512C0.313354 1.82471 13.8962C2.85798 13.8962 3.31675 13.2535 3.31675 11.9512V6.59049Z \ "/ \ u003e \ u003cpath d = \"M1.87209 0.400291C0.843612 0.400291 0 1.1159 0 1.98861C0 2.87869 0.822846 3.57676 1.87209 3.57676C2.87869 3.57676 3.7234 2.87869 C3.7234 1.1159 2.90056 0.400291 1.87209 0.400291Z \ "fill = \"# 1BB76E \ "/ \ u003e \ u003c / svg \ u003e \ u003c / a \ u003e", contentPolicyHtml : "\ u003ca href = \"https : //stackoverflow.com/help/licensing \ "\ u003ecc by-sa \ u003c / a \ u003e \ u003ca href = \"https://stackoverflow.com에 따라 라이선스가 부여 된 사용자 기여 / legal / content-policy \ "\ u003e (콘텐츠 정책) \ u003c / a \ u003e", allowUrls : true }, onDemand : true, 폐기 선택기 : ".discard-answer" , immediatelyShowMarkdownHelp : true, enableTables : true, enableSnippets : true }); } }); Stack Overflow에 대한 답변에 기여해 주셔서 감사합니다! 질문에 반드시 답해주십시오. 세부 사항을 제공하고 연구를 공유하십시오! 그러나 피하십시오 ... 도움, 설명을 요청하거나 다른 답변에 응답합니다. 의견에 따라 진술하기 참고 자료 또는 개인적인 경험으로 백업하십시오. 자세한 내용은 훌륭한 답변 작성에 대한 팁을 참조하십시오. 초안 저장 초안이 삭제되었습니다. 가입 또는 로그인 StackExchange.ready (function () { StackExchange.helpers.onClickDraftSave ( '# login-link'); }); Google을 사용하여 가입 Facebook을 사용하여 가입 이메일 및 비밀번호를 사용하여 가입 제출 게스트로 게시 이름 이메일 필수이지만 표시되지 않음 StackExchange.ready ( 함수 () { StackExchange.openid.initPostLogin ( '. new-post-login', 'https % 3a % 2f % 2fstackoverflow.com % 2fquestions % 2f62245173 % 2fpytorch-transform-tensor-to-one-hot % 23new-answer', 'question_page' ); } ); 게스트로 게시 이름 이메일 필수이지만 표시되지 않음 답변 게시 포기 "답변 게시"를 클릭하면 서비스 약관, 개인 정보 보호 정책 및 쿠키 정책에 동의하게됩니다. 찾고있는 답변이 아닙니까? python pytorch tensor one-hot-encoding 태그가 지정된 다른 질문을 찾아 보거나 직접 질문하십시오.